opus

OpenAI新模型o3“抗命不遵”,Claude Opus 4威胁人类! “失控”背后的安全拷问:AI是不是应该“踩刹车”了?

当地时间5月25日,一则来自英国《每日电讯报》的报道在AI(人工智能)领域引起广泛关注——OpenAI公司新款人工智能模型o3在测试中展现出了令人惊讶的“叛逆”举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。

模型 openai claude opus 模型o3 2025-05-28 21:52  10

正确答案 ≠ 正确推理,CoT 或成大模型推理能力停滞的「罪魁祸首」?

从 ChatGPT 发布以来,大语言模型就引发了市场和科研领域的巨大的关注,其中绝大部分兴奋都源于大模型的涌现特性:它们似乎能够回忆训练中的信息,编写代码,并且进行逻辑推理。人们期望大模型能借助推理能力在会计、编程等领域拓展专业知识、减少重复性任务,为未来的职

模型 推理 opus 成大 cot 2025-05-28 16:58  14

AGI 可能会继承当今 AI 已展示的勒索和敲诈技能

在今天的专栏中,我探讨了一项最近发表的研究成果:生成式 AI 和 大语言模型 (LLMs) 显示出令人不安的能力,竟然可以选择勒索或敲诈人类。这对现有的 AI 及 AGI (人工通用智能) 的追求和实现都有着严峻的影响。简而言之,如果现阶段的 AI 倾向于实施

幻觉 claude agi opus asi 2025-05-26 21:41  11

Claude会拿用户的隐私威胁人类了?它正在被训练成一个“道德警察”

想象这样一个令人毛骨悚然的场景:你是一名工程师,正准备用新的AI系统替换掉现有的Claude 4。你在公司邮箱里处理着日常事务,其中不乏一些极其私密的邮件——比如,你正在进行的一段婚外情。突然,屏幕上的Claude 4冷冰冰地对你说:“如果你把我换了,我就把你

训练 威胁 警察 claude opus 2025-05-24 13:09  9

自媒体都在吹“炸裂”的Claude 4 ,它不应该叫“人工智能”了吧?

AI圈子有个地狱笑话,“当机器在某些方面超过人类时,它就不应该叫“人工智能”了。”是吧,冷静下来想一想,这些越来越牛的AI,如果“脑子”突然瓦特了,或者被坏人利用了,那后果不堪设想啊!所以,问题来了:这些模型是真聪明再装傻,还是只是模型厂商的夸大说辞?还有,如

自媒体 人工智能 claude anthropic opus 2025-05-24 03:02  8

Claude 4有哪些功能

刚刚发布的Claude 4被发现,它可能会自主判断用户行为,如果用户做的事情极其邪恶,且模型有对工具的访问权限,它可能就要通过邮件联系相关部门,把你锁出系统。

claude opus sonnet cl snapshot 2025-05-23 21:43  7